Femmes en France

« L'ouvrière parisienne, avant la guerre, pendant la guerre. », chromo publié dans Le Petit Journal en 1916.

Le rôle des femmes en France a changé tout au long de l'histoire. En 1944, les femmes françaises obtiennent le droit de vote. Comme dans les autres pays occidentaux, le rôle des femmes a connu de nombreux changements sociaux et juridiques entre les années 1960 et 1970. Le féminisme français, qui tient ses origines de la Révolution française, a été influent au cours du XXe siècle par sa contribution au corpus théorique, en particulier à travers les travaux de Simone de Beauvoir.


© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search